#NVIDIA GPU
【GTC 2026】CPO爆發前夜,回顧矽光40年
2026年的加州聖何塞,NVIDIA GTC 大會的聚光燈下,黃仁勳(Jensen Huang)再次向全球亮出了擁抱光學的技術風向——基於光電共封裝(CPO)技術的 Spectrum-X正在全面生產。然而,在這個被矽光技術照亮的“高光時刻”背後,支撐起今天這場百萬級 GPU 互連大爆炸的底層基石,曾經歷過一段長達四十年的漫長蟄伏。如果我們將歷史的指針撥回20世紀末,你會發現,今天在 GTC 大會上被萬眾矚目的“光電同芯”願景,在當年僅僅是一場極具前瞻性卻又備受冷落的科學空想。那是一個被摩爾定律和廉價銅線絕對統治的時代,矽光空有一身“屠龍之術”,卻找不到屬於自己的戰場。這是一段關於折射率、載流子與人類算力飢渴症交織的科技史。它講述了一束不被需要的“微光”,如何從實驗室的冷板凳出發,熬過產業的凜冬,最終在AI時代的前夜,蛻變為重塑整個資訊社會的終極基礎設施。讓我們重回1980年代,去看看那個不合時宜的“早產兒”,是如何一步步走到黃仁勳懷中成為“寵兒”的。1980年代末——矽光概念初誕生,但世界沒有在等待它在20世紀最後二十年的技術版圖中,資訊世界呈現出一種奇特的“二元對立”:以矽(Si)為核心的半導體工藝統治著運算,而以磷化銦(InP)等III-V族材料為核心的化合物半導體則統治著通訊。元素周期表三族和五族兩者像兩條平行線,在各自的領域高速狂奔。在當時的工程界看來,嘗試讓“不發光”的矽去處理光子訊號,無異於一種離經叛道的空想。然而,正是這種不合時宜的構想,在一些先驅的實驗室中被悄然勾勒出了矽光子學的雛形。矽光子學的物理根基,最早是由被譽為“矽光之父”的理查德·索雷夫(Richard Soref)在1980年代中期確立的。Richard Soref索雷夫在矽光子學界的地位始於他從20世紀80年代中期到90年代初發表的一系列論文。“早期,我提出並繪製了典型的器件密集型光電積體電路的示意圖,有些人稱之為EPIC(電子-光子積體電路)。我知道晶圓級的E+P將是兩種技術的完美結合。”他的早期研究確立了矽作為光子積體電路(PIC)可行平台的地位,索雷夫還指出矽也擁有完善的製造基礎設施。他關於該主題的第一篇論文於1985年發表在《電子快報》上,題為“單晶矽:一種用於1.3和1.6微米整合光器件的新材料”。由於矽晶體的對稱性,它缺乏像鈮酸鋰那樣顯著的線性電光效應(Pockels Effect),這意味著無法通過簡單的電場直接改變矽的折射率來調製光。1987年,索雷夫發表了具有里程碑意義的論文,定量推匯出了載流子濃度變化與矽折射率及吸收係數之間的關係,即電漿體色散效應”(Plasma Dispersion Effect)。這一發現為矽光器件提供了一套物理上的“基本法”,證明了通過電學手段操控矽中光子的可能性,使矽調製器的誕生成為理論上的現實。他談到最初關於矽光子學的一系列論文時說:“我詳細闡述了一種新的、主要採用單片技術的方案,其中在室溫下工作的片上波導調製器、開關、光電探測器和雷射二極體與各種‘無源’分路器、合路器、濾波器、偏振器等互連在一起——所有這些都協同工作。”索雷夫說,在他發明矽光子學之前,他知道市面上有一些半導體器件可以滿足光纖收發器晶片的雷射發射和探測功能,但他覺得這些器件笨重、奇特且昂貴。“當我意識到矽在1550奈米光纖通訊波長下具有很高的透明度時,我設想了一種更優雅、更簡單、更經濟的晶片,如果我能設計出低損耗的波導將所有元件連接起來,它就能完美地實現這一目標。”在這之後,矽光領域研究的火種傳到了英國薩裡大學的格雷厄姆·裡德(Graham Reed)手中。裡德教授及其團隊在實驗室內開始了艱苦的“煉金術”,他們率先研製出低損耗的矽波導,並驗證了基礎光學電路在矽片上的可行性。(Graham Reed在2025年發表了首個耗盡型調製器的設計方案,該方案現已成為行業標準,此外他還設計了具有里程碑意義的高速調製器。裡德目前是六個國際會議委員會的成員,已在矽光子學領域發表了約500篇期刊和會議論文,並在重要的國際會議上發表了170多場特邀演講。)Graham Reed在測試光子電路與此同時,1990年萊斯特·坎漢姆(Leigh Canham)關於“多孔矽發光”的發現。Leigh Canham 發現多孔矽能夠在室溫下發射可見光,這一發現打破了長期以來“矽不能發光”的傳統認知。矽作為間接帶隙半導體,其電子與空穴復合通常不產生光發射,因此在光電子器件中一直依賴 III-V 族材料如砷化鎵。然而,Canham 通過電化學蝕刻製備的多孔矽顯示出強烈的光致發光現象,表明矽同樣可以作為光源材料使用,這為矽光電子學的發展提供了基礎。Leigh Canham 手持一塊多孔矽晶片,在紫外光照射下發出橙色光芒這一發現,像一劑強心針刺激了學術界,引發了人們對“矽基全光整合”的巨大幻想!雖然多孔矽最終因其不穩定的物理特性未能走向商業,但它在客觀上打破了矽不能作為光學載體的認知壁壘,促使更多的資源向這一前沿領域傾斜。然而,1990年代的矽光技術更像是一個“早產兒”,它降臨在一個尚未準備好迎接它的世界裡。在那個時代,半導體產業的統治邏輯依然是極致的摩爾定律——通過縮小電晶體尺寸來搾取處理器的頻率。當時奔騰處理器的頻率尚在數百兆赫茲徘徊,傳統的銅線互連在電路板上遊刃有餘,訊號傳輸的物理瓶頸尚未顯現。與此同時,以電信營運商為主導的光通訊市場依然沉浸在長距離、低損耗的宏大敘事中,昂貴但性能卓越的III-V族離散器件足以支撐起當時的全球骨幹網。對於那時的工業界而言,矽光子學既沒有迫切的應用場景,也缺乏成熟的生態支撐。1990年代——矽光找到了“應許之地”但依然比不過一根銅線在矽光技術史的敘事中,1990年代不僅是一個時間跨度,更是一次從物理理論向材料平台演進的“範式轉移”。這一時期,矽光子學開始擺脫實驗室裡的零散研究,正式確立了以SOI(絕緣體上矽)為核心的工藝路徑,而一批兼具科學家洞見與工程野心的先驅,開始嘗試在這片“不毛之地”上建立工業秩序。1990年代後期,矽光子學終於找到了它的“應許之地”:SOI(絕緣體上矽)工藝的走向成熟。在此之前,理查德·索雷夫(Richard Soref)雖然在理論上推匯出了矽的載流子色散效應,但如何在粗糙的晶圓上精準地操縱光子依然是工程夢魘。格雷厄姆·裡德(Graham Reed)教授在薩裡大學的實驗室裡率先意識到,SOI結構不僅是電子工業為了減少寄生電容的利器,更是為光子量身定製的“精巧牢籠”。通過在頂層矽與底部矽襯底之間嵌入一層數百奈米厚的二氧化矽埋層,工程師們利用矽與二氧化矽之間巨大的折射率差,將光線通過全反射原理死死鎖在微米級的導芯中。這種高折射率對比度(High Index Contrast)帶來的革命性後果是,光子器件實現了從毫米級到亞微米級的“維度塌縮”,使得在指甲蓋大小的晶片上整合複雜的光學功能變為了物理可能。這一時期的技術突破,離不開從實驗室走向工業界的“造風者”。時間回退到1988年,裡德的學生、也是矽光產業化的關鍵旗手安德魯·瑞克曼(Andrew Rickman)創立了全球首家矽光公司——Bookham Technology。瑞克曼不僅承襲了學術界的物理洞察,更引入了半導體製造的標準化思維。在1990年代後期,瑞克曼推出的 ASOC(Active Silicon Optical Circuit)平台取得了初步成功。ASOC是矽光產業化的核心技術之一。該平台通過利用 CMOS 工藝線,能夠像生產電腦晶片一樣批次製造光調製器、波導和其他光子元件,實現矽光積體電路的標準化和規模化生產。這種方法不僅提高了生產效率,還保證了器件的可重複性和可靠性,使得矽光技術能夠從學術概念走向實際工程應用。ASOC 平台也為後續高速光調製器、整合光波導、光互連和光通訊晶片的產業化提供了技術基礎。然而,儘管有Soref的理論護航、Reed的實驗驗證以及Rickman的商業試水,當時的矽光技術依然面臨著深刻的“需求缺位”與“生態圍剿”。那是一個屬於電信骨幹網的時代,通訊的戰場在數千公里的深海和跨洲陸纜,以磷化銦(InP)為代表的三五族半導體憑藉天然的發光效率統治著長途通訊市場。對於當時的廠商而言,矽光方案雖然有著宏大的整合前景,但在發光功率和傳輸損耗上仍無法與成熟的化合物半導體抗衡。更具諷刺意味的是,當時PC內部的銅線互連尚能輕鬆應對兆赫茲等級的訊號傳輸,資料中心的概念還未誕生,人類對頻寬的渴求遠未觸及電訊號的物理極限。1990年代末的矽光子學,更像是一場“被提前預告的未來”。它在SOI平台上完成了物理形態的重塑,證明了光子可以像電子一樣被“整合”和“操控”,但它所瞄準的戰場——那個由雲端運算和超大規模互連定義的數字時代——還在十年後的地平線下。那時的矽光子學,正如同瑞克曼在Bookham在商業化前期所經歷的掙扎一樣,在銅線的統治力與光纖的昂貴壁壘之間,孤獨地打磨著那把名為“整合”的利劍,靜默地等待著電學互連徹底走向死胡同的那一天。二十一世紀的第一個十年——摩爾定律的“牆”與矽光的“斯普特尼克時刻”跨入21世紀,資訊產業的敘事邏輯發生了一場隱秘而劇烈的裂變。曾經在1990年代無往不利的摩爾定律,在這一時期撞上了一堵冰冷的“功耗牆”:處理器的時脈頻率在達到3GHz左右後便陷入了停滯,熱量的堆積讓電子訊號在銅線中的穿行變得步履維艱。與此同時,Web 2.0時代的降臨引爆了資料流量的指數級增長,資料中心內部那如同迷宮般的電纜互連,正迅速演變為整個計算系統的頻寬瓶頸。世界終於開始意識到,光子整合不再是實驗室裡的“盆景”,而是打破電學極限的一台破壁機。2004年,矽光子學迎來了一個足以被載入史冊的“斯普特尼克時刻”。(因競爭對手在關鍵科技或軍事領域取得突破,導致自身突然意識到落後從而產生巨大危機感與急迫感的特定時刻)在英特爾(Intel)光子學技術實驗室總監馬里奧·帕尼西亞(Mario Paniccia)的帶領下,科研團隊在《Nature》雜誌上宣佈,他們利用MOS電容結構,研製出了世界上首個頻寬突破1Gbps的矽基光調製器。Mario Paniccia這一成果的震撼之處不在於速度本身,而在於它精巧地利用了電場誘導的載流子積累(Carrier Accumulation)來改變折射率,從而實現了對光波相位的高速調控。帕尼西亞向物理界證明,即使沒有昂貴的鈮酸鋰晶體,單憑成熟的CMOS工藝,矽也能像電子開關一樣,精準而快速地“剪斷”或“連接”光束。自此,矽光從學術界的邊緣孤島,正式進入了晶片巨頭的戰略版圖。然而,矽光的版圖上依然缺失著最後、也是最難的一塊拼圖:光源。矽作為間接帶隙材料,其自發輻射效率極低,這一物理詛咒讓矽基雷射器成了領域內的“聖盃”。2006年,一場材料學上的“異質聯姻”化解了這個僵局。加州大學聖塔芭芭拉分校(UCSB)的約翰·鮑爾斯(John Bowers)教授與英特爾團隊合作,通過一種極富創造性的低溫電漿體驅動晶圓鍵合(Wafer Bonding)技術,將能發光的磷化銦(InP)材料像貼瓷磚一樣,在原子級尺度上緊密地結合在SOI襯底上。John Bowers這種混合整合矽基雷射器(Hybrid Silicon Laser)的誕生,標誌著矽光子學完成了從“被動器件”向“主動發射”的跨越。鮑爾斯展示了一種務實而優雅的折中方案:既然無法從基因上改變矽,那就通過特殊的表面活性處理克服晶格失配(Lattice Mismatch),讓矽成為承載複雜光路的“地盤”,而讓III-V族材料作為外來的能量引擎,在同一個矽平台上實現光電共存。在這一技術長征的側翼,商業化的火種也開始在南加州點燃。2001年,由凱里·岡恩(Cary Gunn)等人創立的 Luxtera 公司成立(全球首家無晶圓廠半導體公司)。他們率先意識到,矽光技術的真正威力並不在於單個器件的極限性能,而在於單片整合(Monolithic Integration)所能釋放的系統級潛力。過去,光調製器、光電探測器和 CMOS 驅動電路通常分開製造,再通過手工或有限自動化方式組裝在光模組中,這不僅增加了成本,也限制了性能一致性與產能規模。Luxtera 大膽嘗試了“光電同芯”的理念,在同一塊 SOI(矽上絕緣體)矽片上同時製造高性能光調製器、光電二極體以及複雜的 CMOS 驅動電路,實現了光子器件與電子電路的完美融合。在技術實現上,這一突破面臨多重挑戰。光調製器和光電探測器需要精細控制矽波導的厚度、摻雜濃度和折射率分佈,以實現高效率光訊號傳輸和調製;而 CMOS 電路則要求高摻雜區、電容匹配和互連層設計,工藝溫度和材料選擇與光子器件存在潛在衝突。Luxtera 通過精密工藝設計與多層摻雜調控,使光子器件與 CMOS 電路能夠共存而互不干擾。SOI 平台在其中起到了關鍵作用:其高折射率對比的矽層實現了光的強束縛和低損耗傳輸,同時下方的絕緣襯底支援 CMOS 電路佈局。這種單片整合方案不僅解決了技術難題,也帶來了巨大的規模化生產優勢。傳統光模組依賴手工組裝,良率低、成本高,而 Luxtera 的方法能夠利用成熟的 8 英吋甚至 12 英吋矽晶圓產線批次生產光子–電子整合晶片,保證器件性能一致性,同時顯著降低成本。這使得光模組的價格與電子晶片接近,為大規模資料中心光互連和高速光通訊提供了經濟可行的解決方案。此外,單片整合在系統級上也帶來了顯著優勢:它節省了封裝空間,減少了光路和電路之間的介面損耗,提高了訊號頻寬與穩定性。Luxtera 的嘗試充分證明了矽光技術不僅是一門物理實驗,更是一門極致的成本藝術,通過將光子器件性能潛力與 CMOS 工藝規模化優勢結合,實現了性能、產量與成本的三重最佳化,使傳統手工組裝光模組在競爭力上幾乎無法望其項背。到2000年代末,科學家在矽片上馴服了光子,更重要的是,他們確立了“以電的標準做光”的工業哲學。此時的矽光,已經褪去了實驗室的基礎研究外衣,正蓄勢待發,準備迎接即將到來的、由雲端運算和超大規模資料中心定義的瘋狂十年。2010年代:雲端運算的無底洞與矽光的“黃金爆發期”進入2010年代,矽光子學終於等來了那個它在荒野中苦盼了二十年的“完美風暴”——超大規模資料中心(Hyperscale Data Center)的崛起。隨著亞馬遜AWS、微軟Azure和Google雲的瘋狂擴張,網際網路流量的形態發生了根本性逆轉:曾經主導網路的“南北向流量”(使用者與伺服器之間)逐漸讓位於“東西向流量”(資料中心內部伺服器與伺服器之間)。在一個擁有數十萬台伺服器的機櫃叢林中,每天都有海量的資料需要跨越幾十米到兩公里的距離進行互動。在這個距離區間,傳統的銅線(DAC)在100G速率下面臨嚴重的訊號衰減,傳輸距離被死死限制在幾米以內;而長途電信網中大顯神威的傳統三五族離散光模組,又因為需要大量人工耦合與組裝,成本高昂,根本無法滿足資料中心動輒數以百萬計的採購需求。世界不僅需要光,更需要“廉價、海量、高度一致”的光。這正是矽光子學與生俱來的宿命。此時,曾經在2000年代埋下的技術種子,終於迎來了狂飆突進的商業收割期。2016年前後,英特爾(Intel)祭出了籌備十餘年的殺手鐧——100G PSM4(及其系列)矽光模組。通過將自家的混合整合矽基雷射器與高性能調製器完美打包,英特爾首次向業界證明,矽光不僅能做demo,更能在300毫米(12英吋)的晶圓流水線上,像生產CPU一樣被成千上萬地“復刻”出來。這種規模效應帶來了成本的斷崖式下跌,直接擊穿了資料中心全面引入光互連的價格底線。在那幾年裡,英特爾的矽光模組出貨量以百萬隻計,成為了主導資料中心100G迭代浪潮的絕對霸主。馬里奧·帕尼西亞等人在新世紀初的預言,終於化作了伺服器機架上閃爍的訊號燈。在電子半導體領域大獲成功的“代工廠(Foundry)+ 無晶圓廠(Fabless)”模式,被成功移植到了矽光領域。台積電(TSMC)、格芯(GlobalFoundries)以及Tower Semiconductor等頂級代工廠,開始向業界提供標準化的矽光工藝設計套件(PDK)。這意味著,光子晶片的設計者不再需要自己擁有一座造價百億美元的晶圓廠,只需要像寫程式碼一樣呼叫PDK中的標準光子器件庫,就能將設計圖紙轉化為實實在在的矽光晶片。這一“技術平權”運動催生了一大批耀眼的矽光新星,例如將矽光與相干通訊(Coherent)結合、專攻資料中心互連(DCI)的 Acacia Communications,它們將複雜的數字訊號處理(DSP)與矽光引擎結合,把原本需要一個冰櫃大小的相干光端機,縮小到了一個插拔模組的尺寸。在這一時期,傳統網路裝置巨頭的焦慮與貪婪,更是成為了矽光加冕的終極背書。意識到“得矽光者得天下”的思科(Cisco),揮舞著支票簿開啟了瘋狂的掃貨模式:2012年斥資收購矽光先驅Lightwire,隨後又在2018年以26億美元的驚人天價,將當年堅持“單片整合”路線的矽光元老 Luxtera 收入囊中。這些巨額併購不僅是資本市場的狂歡,更是產業底層的共識——當交換機晶片的吞吐量向著12.8T、25.6T無情攀升時,傳統的插拔式光模組註定會在面板密度和功耗上走向絕路(未來的某個時間)。2010年代末的矽光史,還曾留下過一個名為板載光學(On-Board Optics, OBO)的中間形態。以微軟(Microsoft)主導的COBO(板載光學聯盟)為代表,業界的先驅者們曾試圖推行一種折中方案:將光收發元件從擁擠的前面板拆下,直接“鋪”在交換機主機板上,通過中繼電纜連接到ASIC晶片。從邏輯上看,OBO的設計極具誘惑力。它既縮短了電訊號在PCB上的傳輸距離,降低了功耗,又巧妙地避開了CPO所需的高難度異質封裝技術,維持了供應鏈的獨立性。然而,這一構想在商業實踐中卻遭遇了尷尬的“夾擊”。對於普通的雲端運算廠商而言,插拔式模組通過不斷最佳化DSP演算法和材料工藝,頑強地將100G甚至400G的傳輸壽命延長到了極限,使得OBO的性能優勢顯得並不緊迫;而對於追求極致頻寬的AI算力巨頭而言,OBO節省的那點電學路徑又顯得“隔靴搔癢”,無法徹底解決51.2T時代後的散熱難題。最終,OBO在產業史中扮演了一個悲情的過渡角色。它雖然未能在市場上形成統治地位,但它在工程上驗證了“光電解耦”的可行性,並迫使整個產業鏈開始思考如何處理主機板上的高密度光纖管理。然而,技術的車輪從未停止碾壓。當時間推演至這十年的尾聲,隨著AI大模型概念的暗流湧動,算力網路對I/O頻寬的渴求正在醞釀一場比“雲端運算”更加暴烈的革命,而矽光,即將被迫褪去剛剛穿習慣的“插拔式光模組”外衣,走向它在1990年代就被設想過的終極形態——請看下一段。2020年代至今:AI算力的狂飆與“光電共封裝(CPO)”的終極圖景2020年代,一場由生成式人工智慧(Generative AI)和大語言模型引發的算力革命,以前所未有的暴烈姿態席捲了全球科技界。如果說2010年代的雲端運算資料中心是一個個龐大的“算力無底洞”,那麼如今由數萬張GPU交織而成的智算中心,則是一個個貪婪吞噬資料的“算力黑洞”。在訓練千億參數模型的過程中,數以千計的GPU需要時刻保持同步與參數互動,這種被稱為“全互聯(All-to-All)”的極致通訊模式,讓頻寬的需求不再是按年線性增長,而是以月為單位呈指數級爆炸。800G的速率剛剛商用,1.6T乃至3.2T的呼聲便已響徹矽谷。在這一刻,傳統的物理法則再次逼近了它的極限邊界。在這個算力狂飆的時代,曾經在2010年代立下汗馬功勞的“插拔式矽光模組”遭遇了它的宿命危機。當交換機的總吞吐量向著51.2T甚至更高無情攀升時,一個致命的物理瓶頸暴露無遺:從交換機核心ASIC晶片到機箱前面板的光模組之間,仍然存在著十幾釐米長的銅線PCB走線。在極高頻的電訊號面前,這段曾經微不足道的銅線變成了一片泥濘的沼澤,訊號衰減極其嚴重,不得不依賴大量高功耗的數字訊號處理晶片(DSP)來“搶救”訊號質量。結果是,光模組自身的功耗甚至開始逼近交換晶片本身,整個網路裝置變成了一頭難以散熱的“功耗巨獸”。在這堵全新的“功耗牆”面前,業界痛苦地意識到:光與電的距離,必須被無限拉近。於是,矽光子學迎來了自誕生以來最激進的一次形態剝離與重構——CPO(光電共封裝,Co-Packaged Optics) 時代的全面降臨。這一革新不僅是封裝工藝的升級,更意味著整個資料中心互連系統架構的徹底顛覆。在傳統交換機架構中,高速光模組通過長達數十釐米的 PCB 走線連接 ASIC 晶片,導致訊號在高速 I/O 上產生嚴重衰減,同時功耗高、板面熱量密集,限制了連接埠密度和頻寬擴展。而 CPO 通過將 矽光引擎(Optical Engine)直接封裝在交換機 ASIC 晶片所在的同一塊基板上,實現了光電器件與電子處理器的極限物理靠近,從根本上降低了高速電訊號的傳輸距離,從十幾釐米降至幾毫米。在這種架構下,高頻訊號的 PCB 線路損耗幾乎被消除,使 I/O 功耗降低了約 50%,同時減少了電磁干擾和訊號抖動。光模組不再是可插拔的獨立器件,而是作為 ASIC 的 緊密整合元件 出現在晶片旁邊,這使得光纖與晶片之間的延遲和功耗大幅降低。CPO 中的矽光引擎通常包括調製器、探測器、雷射器介面及必要的光路耦合結構,它們通過高密度微焊或矽基互連技術與 ASIC 電路相連,實現電光轉換的極致效率。工程上,CPO 對封裝和熱設計提出了前所未有的挑戰:需要精確控制晶片間的光學對準、管理高密度光電元件產生的熱量,並確保大規模製造的可靠性。同時,這種設計要求 ASIC 的物理引腳佈局、功率分佈以及 PCB 電源網路都必須重新規劃,以適應光電共封裝的緊湊架構。CPO 的成功意味著連接埠密度、頻寬效率和能效的革命性提升,為 800G、 1.6T 甚至更高的的資料中心高速互連提供了現實可行的工業化方案。總之,在 CPO 架構下,光纖不再是插在裝置外部的“附屬品”,而是直接“長”在晶片旁邊,與 ASIC 電路共同構成資料中心核心互連的高效引擎。更令人心潮澎湃的戰場,正在向計算晶片的最深處蔓延。過去,矽光技術主要聚焦於資料中心交換機或伺服器之間的高速互連,它的使命是替代銅線,實現遠距離、高頻寬、低功耗的資料傳輸。而如今,以 Ayar Labs 為代表的創新企業正在將矽光技術推向計算核心本身,致力於打造 “光學 I/O(Optical I/O)” 架構,將光互連直接嵌入到 GPU、CPU 或 AI 加速晶片的封裝內部。在傳統馮·諾依曼架構下,處理器與高頻寬記憶體(HBM)之間依賴數以千計的微型銅柱(micro-bump)和 PCB 走線進行電訊號傳輸,這種互連不僅受限於線長和電容/阻抗效應,還導致訊號延遲、功耗和熱量顯著增加。光學 I/O 的理念是讓光子直接承擔 GPU 與 GPU、GPU 與 HBM、甚至晶片與晶片之間的資料搬運。電訊號在離開計算核心的瞬間就被轉換為光子,通過矽光波導或光纖以光速在計算叢集中傳輸,隨後在目標封裝內重新轉換為電訊號,實現零延遲、低功耗的高速資料交換。但在技術上,光學 I/O 仍要依賴幾個關鍵創新:矽光整合:在晶片封裝或矽 interposer 上整合調製器、光波導、探測器以及光纖耦合介面,實現超高密度的光子通道。光電轉換器件微型化:調製器和探測器必須在亞毫米等級封裝,同時支援每秒數百 Gb 或 Tb 的光訊號頻寬。熱管理與功耗最佳化:光學器件在計算核心附近工作,必須設計精密的散熱系統,避免影響晶片性能。系統級協議與同步:光學 I/O 需要與 GPU/CPU 的時鐘、快取控制和記憶體控製器緊密配合,確保資料一致性和低延遲。雖然仍有關鍵技術的缺位,光學I/O的應用前景仍然令人振奮:在 AI 超算、分佈式 GPU 叢集或高性能計算(HPC)系統中,光學 I/O 可以大幅度降低 晶片間互連延遲,提升 頻寬密度,同時將系統功耗顯著下降。這意味著,未來的計算系統不再受制於銅線的物理極限,資料在晶片內部和晶片之間的傳輸將以光速完成。結語在2026年3月19日,GTC2026結束之後的今天,這段長達近四十年的科技史形成了一次首尾呼應。1980年代理查德·索雷夫在圖紙上推匯出的電漿體色散公式,1990年代安德魯·瑞克曼試圖在同一枚晶片上融合光與電的孤傲夢想,曾經在漫長的歲月裡被視為不合時宜的先知之語。然而今天,當人工智慧的巨浪試圖突破矽基電子的物理桎梏時,正是當年那些沉澱在微米級SOI波導裡的光,再次帶給人類邁向通用人工智慧(AGI)的希望。算力世界已迫不及待地向矽光子學敞開懷抱,而同行的,還有蓄勢待發的量子計算。那麼,下一個十年,矽光的進化將會如何澎湃,掀起怎樣的算力風暴? (半導體行業觀察)
🎯AI算力暴增10倍!真正賺翻的不是GPU,而是這4家公司!Line@連結:https://lin.ee/mua8YUP🎯如果你以為AI只是ChatGPT寫寫文章、機器人跳舞那你可能完全看錯戰場真正的AI戰爭,其實只有兩個字:速度想像一下AI晶片就像一顆法拉利引擎而整個系統能不能跑得動關鍵不是引擎,而是車架在半導體世界裡這個車架就是:IC載板現在問題來了AI晶片越做越大、算力越來越狂傳統電路板根本,載不動這些怪獸級晶片於是,一場新的產業大行情正在發生:載板市場,從供過於求→直接翻轉成供不應求而台股,正好有四個最大贏家第一個:3037欣興AI載板盟主。NVIDIA Blackwell、CSP自研AI晶片很多都躺在欣興的載板上更誇張的是客戶為了搶產能直接簽3~7年長約,還先付錢電子業很少看到這種事意思只有一個:未來幾年訂單已經排滿第二個:4958臻鼎-KY很多人還停留在「蘋果供應鏈」但現在它的AI營收占比已經從8%衝到70%而且公司直接砸下1000億資本支出企業只有在一種情況會這樣做:訂單多到不敢不擴產第三個:8046南電它不是現在最紅的但可能是獲利彈性最大的一個關鍵原因只有一個:材料缺貨T-glass短缺讓載板廠有機會直接調漲價格法人圈預估:ABF與BT載板 ASP可能年增20~30%第四個:3189景碩很多人只盯GPU但AI真正吃算力的是:HBM記憶體而景碩正好卡在這個位置ABF吃AI晶片BT吃DDR5記憶體雙引擎一起推結論很簡單:AI時代不是只看GPU真正的關鍵是能不能「載得動」GPU而載板產業正在進入一場新的軍備競賽🔴接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
🎯CPO全倒竟是「最後上車機會」!Line@連結:https://lin.ee/mua8YUP🎯今天CPO族群突然大回檔。今天很多人嚇到了。盤面一堆人開始問:「是不是行情結束了?」江江只講一句話。不是結束,是上車機會。👉如果把AI伺服器想像成一座城市。GPU是發電廠。而資料傳輸的高速公路,就是光通訊。但現在問題來了。AI算力暴衝的速度,已經快到 「高速公路開始塞車」。所以全球科技巨頭正在做一件事:把電變成光。這就是最近最火的關鍵字:CPO、矽光子。連AI霸主NVIDIA都直接砸錢下場。市場最新消息是:輝達聯手Coherent、Lumentum準備投入40億美元打造下一代AI資料中心光通訊架構。意思很簡單:AI下一場戰爭,不是晶片,是光。也因為這件事,最近只要掛上「矽光子」三個字⚠️但今天發生一件很關鍵的事。CPO族群出現大回檔。很多散戶看到大跌就慌。但我們看到的東西完全不同。我看到的是:主力在換手。大行情在洗人。因為真正的大機會從來不是在暴漲那一天。而是恐慌拉回。現在市場滿山遍野都在講矽光子。但真正「含金量」最高的公司其實不多。👉3363上詮就是「含金量」超高的漲倍潛力股之一CPO最關鍵的一個零件叫:FAU(光纖陣列元件)簡單講就是把光纖精準接到晶片上的「神經接口」。而台灣有一家公司早就卡在最核心的位置。它不只是供應鏈。它是台積電矽光子朋友圈的核心。這家公司最厲害的技術是:20/40/80通道FAU通道越高技術門檻越高而價格不是線性增加。是跳躍式爆增。換句話說:未來CPO只要放量毛利率會像坐火箭。更重要的是時間點。2025:產品驗證2026:開始貢獻營收2027:AI資料中心全面升級現在就是風雨來臨前的安靜時刻。所以今天CPO的大回檔我只講一次:這可能是今年唯一一次可以舒服卡位CPO的機會。🔴接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
🎯黑天鵝來了?別鬧了!這次又是老天送你的「大買點」!Line@連結:https://lin.ee/mua8YUP🎯黑天鵝來了?美股重挫+美伊戰火升溫。結果呢?台股開低走高CPO族群更是直接噴給你看。上週我就講得很白⭕日周月沒背離⭕融資落後大盤20%⭕量能沒崩⭕35579不是天花板真正過熱的是60分線,不是大趨勢。這種回檔,叫「深呼吸」,不叫「崩盤」。再看基本面。AMD直接接下Meta千億美元級AI大單,6GW Instinct GPU部署。一週前才掃NVIDIA GPU。科技巨頭仍在搶算力。🔥跟著江江鎖定:五大「翻倍級」成長產業第一,CPO。台積電+NVIDIA都公開點名。新竹實驗室已動。2026商轉、2027爆發。這不是題材,是結構革命。第二,PCB高階板。AI伺服器越做越複雜,ABF載板就是印鈔機。資本支出敢開,就是訂單看到未來。第三,記憶體。HBM滿載,報價翻正。景氣循環已翻多,只是很多人還沒醒。第四,低軌衛星。SpaceX、Amazon Kuiper在加速。軍工+商用雙引擎,這條線很長。第五,機器人。3月輝達GTC要來了。AI落地的最後一哩路,資金會找低基期。🔴這波拉回,我優先鎖定的是哪一條主線。接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
《威剛領軍記憶體族群出關!法人點名四大動能AI超級循環正式啟動》記憶體族群過去三季上演一場驚心動魄的重生劇碼,從國際大廠減產保價、報價觸底反彈,再到 AI 浪潮帶動 HBM(高頻寬記憶體)供不應求,激勵威剛、十銓、南亞科、華邦電相關概念股狂飆列入「處置股」,隨著分盤交易限制解除,法人點名四大關鍵動能成為股價核心燃料。記憶體產業之所以能被看好,不僅是產業景氣反彈,而是超級循環(Super Cycle)週期,關鍵在於 AI 帶來的結構性改變,由四大新動能支撐未來 6 到 12 個月股價上攻的核心燃料,首先是 HBM 的排擠效應,因 NVIDIA 的 GPU 如 H100, Blackwell 系列極度依賴 HBM3e,甚至未來的 HBM4,HBM 不僅價格是傳統 DRAM 的數倍,更必須消耗大量的晶圓產能。記憶體三大原廠如 SK 海力士與三星將大部分的資本支出與先進產能都移轉去生產 HBM,導致傳統 DRAM 的 DDR4、DDR5 供給遭到排擠,而這對於台灣的中下游廠商而言,卻是一個天大的好消息,因為原廠不願意做標準型記憶體市場,供給將持續緊俏,而這種「產能排擠效應」保證標準型 DRAM 的價格在未來一年難以深跌,甚至有續漲空間。第二是 AI PC 與 AI 手機的「容量倍增」紅利,如果說 HBM 是雲端的戰爭,那麼「邊緣運算(Edge AI)」就是終端的戰場,微軟定義的 AI PC,以及能夠運行生成式 AI 的旗艦手機,對記憶體的需求強勁,而要在裝置端運行一個像樣的 LLM(大型語言模型),記憶體就是最大的瓶頸,以 PC 端來說,現在 AI PC 起步標準就是 16GB,未來主流將推向 32GB 甚至 64GB。第三是 DDR5 與 DDR4 的黃金交叉,由於市場目前正處於世代交替的關鍵期,隨著 Intel 與 AMD 新平台的滲透率提升,DDR5 正式成為主流,過去因為 DDR5 太貴,消費者買不下手,但如今 DDR5 與 DDR4 的價差已縮小至 15%~20% 的甜蜜點,這將加速世代交替,而 DDR5 的技術難度較高,因此平均銷售單價(ASP)與毛利率都優於 DDR4。第四是 NAND Flash 市場迎來轉機,過去 Flash 殺價競爭最為慘烈,但 AI 伺服器不僅需要運算,更需要極高速的資料吞吐,因此 QLC (Quad-Level Cell) 企業級 SSD 正在快速取代傳統硬碟(HDD)在資料中心的地位,而 AI 訓練資料庫動輒數 PB,對於高容量、高密度的 Enterprise SSD 需求大增。法人指出,記憶體產業的這波漲勢,始於減產帶來的供需修復,飆漲於資金的投機熱潮,但最終將支撐於 AI 帶來的實質需求,首選的是具備研發能力、能切入 AI 伺服器或高階電競市場的控制 IC 設計廠與高階模組廠,次選是擁有龐大低價庫存,且通路佈局全球化的通路龍頭。
【CES 2026】首款HBM4 GPU,全面投產
輝達周一表示,其下一代 Rubin AI 晶片已“全面投產”,並將於 2026 年下半年上市。同時,該公司還公佈了備受期待的 Blackwell 系列繼任者的更多細節。“我們必須每年都推進計算技術的進步,一年也不能落後,” 輝達首席執行長黃仁勳在 CES 2026 電子貿易展期間的主題演講中表示。魯賓發表此番言論之際,人們越來越擔心會出現“人工智慧泡沫”,因為人們越來越質疑大規模人工智慧基礎設施建設還能持續多久。這家晶片巨頭通常會在加州聖何塞舉行的 GTC 開發者大會上公佈其人工智慧晶片的最新進展,今年的 GTC 大會將於 3 月 16 日至 19 日舉行。輝達在2025年3月的GTC大會上預覽了Vera CPU和Rubin GPU,並表示Vera-Rubin晶片組將比其前代產品Grace-Blackwell提供更出色的AI訓練和推理性能。推理是指使用訓練好的AI模型來生成內容或執行任務。在周一的發佈會上,黃仁勳公佈了Rubin系列產品的更多細節。Rubin GPU的推理計算性能是Blackwell的五倍,訓練計算性能是Blackwell的3.5倍。與Blackwell相比,新一代晶片還能降低訓練和推理成本,推理令牌成本最多可降低10倍。Rubin 架構包含 3360 億個電晶體,在處理 NVFP4 資料時可提供 50 petaflops 的性能。相比之下,Nvidia 上一代 GPU 架構 Blackwell 的性能最高為 10 petaflops。同時,Rubin 的訓練速度提升了 250%,達到 35 petaflops。晶片的部分計算能力由一個名為 Transformer Engine 的模組提供,該模組也隨 Blackwell 一起發佈。據輝達稱,魯賓的 Transformer Engine 基於一種更新的設計,並具有一項名為硬體加速自適應壓縮的性能提升功能。壓縮檔案可以減少其包含的位元數,從而減少 AI 模型需要處理的資料量,進而加快處理速度。輝達首席執行長黃仁勳表示:“Rubin 的問世恰逢其時,因為人工智慧的訓練和推理計算需求正呈爆炸式增長。憑藉我們每年推出新一代人工智慧超級電腦的節奏,以及六款全新晶片的深度協同設計,Rubin 的推出標誌著我們向人工智慧的下一個前沿領域邁出了巨大的一步。”據輝達稱,Rubin 還將成為首款整合 HBM4 記憶體晶片的 GPU,其資料傳輸速度高達每秒 22 TB,比 Blackwell 有了顯著提升。該公司表示,Rubin 系列晶片已經“全面投產”,並將於今年下半年提高產量。微軟 Azure 和輝達支援的雲服務提供商 CoreWeave 將成為首批在 2026 年下半年提供由 Rubin 提供支援的雲端運算服務的公司之一。在周日的一次媒體簡報會上,輝達高級總監迪翁·哈里斯表示,提前推出 Rubin 產品是因為這些晶片“在展示實際準備情況方面達到了一些非常關鍵的里程碑”,並補充說,該公司正在努力使生態系統做好準備,以採用 Vera-Rubin 架構。“鑑於我們目前的準備情況,以及市場對 Vera-Rubin 的熱情,我們認為這是一個絕佳的機會,可以在 CES 上推出這款產品,”哈里斯說。然而,比預期更早發佈的 Rubin 一代晶片並未給市場留下深刻印象,輝達股價在周一盤後交易中下跌 0.13%,此前收於 188.12 美元。黃仁勳身著一件閃亮的黑色皮夾克,這是他標誌性皮夾克的改良版,在拉斯維加斯BleauLive劇院向3000名座無虛席的聽眾發表了主題演講 。現場氣氛熱烈——這位CEO一出場就受到了歡呼、掌聲和觀眾用手機拍照的熱烈歡迎——這充分證明了這家公司如彗星般迅速崛起,如今它已被視為人工智慧時代最重要的風向標。首席執行長此前表示,即使沒有中國或其他亞洲市場,該公司預計到 2026 年,其最先進的 Blackwell AI 晶片和 Rubin 的“早期產能提升”也將帶來5000 億美元的收入。與此同時,黃仁勳認為人工智慧的未來將主要體現在物理世界中。在CES 2026正式開幕前一天,也就是周一的場外活動中,輝達宣佈與多家製造商、機器人製造商和領先的汽車製造商達成合作,其中包括比亞迪、LG電子和波士頓動力公司。黃仁勳表示:“機器人領域的 ChatGPT 時刻已經到來。物理人工智慧的突破——能夠理解現實世界、推理和規劃行動的模型——正在解鎖全新的應用。”他指的是開啟生成式人工智慧熱潮的聊天機器人 ChatGPT。輝達發佈Vera Rubin NVL72人工智慧超級電腦在2026年國際消費電子展(CES)上,人工智慧無處不在,而輝達GPU則是不斷擴展的人工智慧領域的核心。今天,在CES主題演講中,輝達首席執行長黃仁勳分享了公司將如何繼續引領人工智慧革命的計畫,因為這項技術的應用範圍將遠遠超出聊天機器人,擴展到機器人、自動駕駛汽車以及更廣泛的物理世界。首先,黃仁勳正式發佈了輝達下一代AI資料中心機架級架構Vera Rubin。Rubin是輝達所謂的“極致協同設計”的成果,它由六種晶片組成:Vera CPU、Rubin GPU、NVLink 6交換機、ConnectX-9 SuperNIC、BlueField-4資料處理單元和Spectrum-6乙太網路交換機。這些元件共同構成了Vera Rubin NVL72機架。對人工智慧計算的需求永無止境,而每款 Rubin GPU 都承諾為這一代產品提供更強大的計算能力:NVFP4 資料類型的推理性能高達 50 PFLOPS,是 Blackwell GB200 的 5 倍;NVFP4 訓練性能高達 35 PFLOPS,是 Blackwell 的 3.5 倍。為了滿足如此龐大的計算資源需求,每款 Rubin GPU 都配備了 8 個 HBM4 視訊記憶體堆疊,提供 288GB 的容量和 22 TB/s 的頻寬。每個GPU的計算能力只是人工智慧資料中心的一個組成部分。隨著領先的大型語言模型從啟動所有參數以生成給定輸出詞元的密集架構,轉向每個詞元僅啟動部分可用參數的專家混合(MoE)架構,這些模型的擴展效率得以相對提高。然而,模型內部專家之間的通訊需要大量的節點間頻寬。Vera Rubin推出用於縱向擴展網路的NVLink 6,將每個GPU的交換矩陣頻寬提升至3.6 TB/s(雙向)。每個NVLink 6交換機擁有28 TB/s的頻寬,每個Vera Rubin NVL72機架配備9個這樣的交換機,總縱向擴展頻寬可達260 TB/s。Nvidia Vera CPU 採用 88 個定製的 Olympus Arm 核心,並配備 Nvidia 所謂的“空間多線程”技術,可同時運行多達 176 個線程。用於將 Vera CPU 與 Rubin GPU 連接起來的 NVLink C2C 互連頻寬翻倍,達到 1.8 TB/s。每個 Vera CPU 可定址高達 1.5 TB 的 SOCAMM LPDDR5X 記憶體,記憶體頻寬高達 1.2 TB/s。為了將 Vera Rubin NVL72 機架擴展為每個包含八個機架的 DGX SuperPod,Nvidia 推出了兩款採用 Spectrum-6 晶片的 Spectrum-X 乙太網路交換機,這兩款交換機均整合了光模組。每顆 Spectrum-6 晶片可提供 102.4 Tb/s 的頻寬,Nvidia 將其應用於兩款交換機中。更多產品同步發佈NVIDIA正式發佈了面向AI資料中心的新型CPU“Vera”和GPU“Rubin”。雖然此前已有相關計畫公佈,但首席執行長黃仁勳於1月5日在拉斯維加斯的主題演講中正式揭曉了這些產品。此外,該公司還發佈了高速網路產品,例如 NVLink 6 交換機(允許使用 Vera 和 Rubin 在機架內進行擴展)、ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 乙太網路交換機(允許在資料中心內擴展此類機架)。Rubin是當前一代GPU“Blackwell”(NVIDIA B300/B200/B100)的繼任者,採用了全新的GPU架構和HBM4視訊記憶體。根據NVFP4的計算,Blackwell的AI推理和訓練性能為10 PFLOPS,而Rubin的推理性能達到50 PFLOPS,速度提升了5倍;訓練性能達到35 PFLOPS,速度提升了3.5倍。NVIDIA 正式宣佈 Vera 是一款採用 Arm 架構的 CPU,配備 88 個 NVIDIA 定製設計的 Olympus 核心;Rubin 是一款面向 AI 資料中心的 GPU,將成為當前 Blackwell (B300/B200/B100) 產品的繼任者。這款以美國著名科學家庫珀·魯賓 (Cooper Rubin) 命名的 Rubin GPU,採用 Rubin 架構,相比 Blackwell 架構,能夠實現更高效的 AI 計算。它還配備了全新的 HBM4 記憶體技術、第六代 NVLink、機密計算功能和 RAS 引擎,從而提升了平台級的性能和安全性。通過這些改進,在使用 NVIDIA 的高級推理模型和實現智能體 AI 的 MoE(專家混合)模型時,推理的每個令牌成本最多可以降低十分之一,訓練的每個令牌成本最多可以降低四分之一。與上一代 Blackwell(可能是 GB200 中搭載的 B200)相比,Rubin 的 NVFP4 推理性能提升至 50 PFLOPS,性能提升 5 倍;訓練性能提升至 35 PFLOPS,性能提升 3.5 倍(Blackwell 的這兩項均為 10 PFLOPS)。HBM4 的記憶體頻寬為 22 TB/s,是 Blackwell 的 2.8 倍;每個 GPU 的 NVLink 頻寬為 3.6 TB/s,性能提升兩倍。另一方面,Vera 是一款搭載 88 個 NVIDIA 定製設計的 Olympus 核心的 Arm CPU。它支援 NVIDIA 的專有虛擬多線程 (SMT) 技術“NVIDIA Spatial Multi-threading”,啟用後可作為 176 線程 CPU 使用。它可配備 1.5TB 的 LPDDR5X 記憶體(容量是上一代 Grace 的三倍),基於資料中心記憶體模組標準“SOCAMM”,記憶體頻寬為 1.2TB/s。與 Blackwell 系列一樣,Vera Rubin 每個模組將包含一個 Vera 處理器和兩個 Rubin 處理器。此外,還將推出 Vera Rubin NVL72,這是一款可擴展解決方案,可將 36 個 Vera Rubin 處理器整合到單個機架中。Vera Rubin NVL72 配備了支援第六代 NVLink 協議的 NVLink 6 交換機,單個機架可容納 36 個 Vera CPU 和 72 個 Rubin GPU。此外,NVIDIA 還計畫推出“HGX Rubin NVL8”,這是一款面向 OEM 廠商的設計,將八個 Rubin 模組整合在一台伺服器中;以及“DGX Rubin NVL8”,這是一款專為 x86 處理器設計的伺服器。客戶可以選擇將 Rubin 與 NVIDIA 的 Arm CPU 或 x86 CPU 搭配使用。同時,NVIDIA 還發佈了用於橫向擴展的高速網路新產品,包括 ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 乙太網路交換機。這些產品可以與前文提到的 Vera Rubin NVL72 和 HGX Rubin NVL8 配合使用,實現橫向擴展。該公司還發佈了“DGX SuperPOD with DGX Vera Rubin NVL72”,這是一款由八塊 Vera Rubin NVL72 GPU 組成的擴展型超級電腦,可作為人工智慧超級電腦的參考設計。通過利用 CUDA 等軟體解決方案,一台超級電腦即可使用 256 個 Vera CPU 和 512 個 Rubin GPU。據該公司稱,Vera 和 Rubin 計畫於 2026 年下半年發佈,並將通過四大雲服務提供商(AWS、Google雲、微軟 Azure 和 Oracle 雲基礎設施)以及戴爾科技、HPE、聯想和超微等原始裝置製造商 (OEM) 提供。該公司解釋說,OpenAI、Anthropic 和 Meta 等人工智慧模型開發公司已經宣佈了他們的採用計畫。輝達五年來首次“缺席”CES展會整個行業正陷入零部件短缺的困境,輝達剛剛在X平台上宣佈,其2026年CES主題演講將“不會發佈任何新的GPU”,這無疑給新PC組裝商們僅存的一點希望潑了一盆冷水。這打破了輝達連續五年在CES上發佈新款GPU(無論是桌面級還是移動級)的慣例;這一次,將不會有任何新的硬體產品問世。此次發佈會的大部分內容可能都會聚焦於人工智慧領域的最新進展。自2021年以來,微軟每年都會在CES上展示其最新的晶片產品。最近,RTX 50系列顯示卡在拉斯維加斯標誌性的CES展廳首次亮相,並且一直有傳言稱RTX 50 Super系列顯示卡也將在CES 2026上發佈。雖然官方從未正式確認,但DRAM短缺可能導致了此次發佈計畫的擱淺。否則,輝達本可以在CES 2024上發佈RTX 40 Super系列顯示卡,而這距離首款Ada Lovelace顯示卡發佈僅一年之隔。此外,該公司最新的Blackwell GPU採用的是GDDR7視訊記憶體,而GDDR7視訊記憶體的生產難度更高。情況已經惡化到如此地步,甚至有傳言稱輝達將重啟RTX 3060的生產,因為該顯示卡採用的是GDDR6視訊記憶體,並且採用的是三星較老的8nm工藝製造。記憶體供應是問題的關鍵所在。如果背後的工廠完全癱瘓,輝達就無法發佈新的GPU。全球只有三家公司——美光、SK海力士和三星——能夠生產尖端DRAM,而且它們都樂於將產品賣給AI客戶以獲取更高的利潤。對通用人工智慧(AGI)的渴求促使像OpenAI這樣的公司制定了突破性的計算目標,這些目標遠遠超出了我們現有供應鏈的承載能力。有些人可能會疑惑,為什麼政府不介入幫助消費者?監管市場難道不是他們的職責嗎?不幸的是,地緣政治因素使情況更加複雜,因為前沿人工智慧代表著另一場軍備競賽,而華盛頓希望保持對中國的領先優勢。歸根結底,不會有救星出現。就像2014年的記憶體危機和過去十年間各種GPU短缺一樣,我們只能等到人工智慧熱潮停滯不前才能迎來轉機。目前,輝達顯示卡的價格尚未上漲,所以這或許是我們重返黃牛倒賣時代的最後時刻。不過,社區裡有些人,比如藍寶石的公關經理,仍然抱有希望,相信這場風暴最終能夠過去。 (半導體行業觀察)